[16]其中,教学式的法学提供了一种关于实在法整体内容的概观,并发展出基础性的概念体系。
[63]Vgl. Hans Schneider, Rechtstheorie ohne Recht? Zur Kritik des spekulativen Positivismus in der Jurisprudenz, in Alexander Hollerbach (Hrsg.), Mensch und Recht, Frankfurt a. M.: Klostermann,1972, S.113. [64]参见[德]马蒂亚斯·耶施泰特:《法理论有什么用?》,雷磊译,中国政法大学出版社2017年版,第85页以下。中国法学并没有像西方法学那样经历过从教义化到多元化的过程,根基并不牢固。
如何在迎接这一潮流的同时维系本学科的固有法则,不让跨学科变成无学科,不仅涉及学科的自主问题,也涉及它对于人类知识的独特贡献。科学知识应当是一般而非个别的命题,但它的基础来自于具体的经验。法理论在欧陆的发展大体分为三个阶段:创始阶段(19世纪70年代至20世纪30年代)、成熟阶段(20世纪30年代至60年代)、多样化阶段(20世纪60年代以后)。1949年之前,学界除了对英美分析法学有零星的介绍外,对于西方尤其是德国理论的介绍,基本集中于法哲学领域。这些通过经验描述方式获得的概念和结构随后被附加上了规范性。
科恩菲尔德尝试以社会权力关系的概念为基础,去建立一套基于社会学的一般实在法学说。[66]社会法理论要么采取历史唯物主义和辩证唯物主义方法,要么采取结构功能主义方法,或者对于法的性质或运行进行剖析,或者对于法发展与演变的规律进行预测。康德也认为,对财产利益的保护是最初核心的诱导性因素,它引领处于自然状态的人们走向联合并形成政府或市民社会[16](P186)。
另一方面,必须引入和提升人工智能科技社会规范。这一时期,科学、科技先是作为人文理性主义的演绎产物得到发展,但很快就喧宾夺主,成为人文理性的替代形态而得到高举。正在进行的中美贸易战就是一个典型例子。[7](P7)科技社会风险演进到今天,早已不再是从前的潜在的副作用,而是达到极端泛滥或突变的程度。
面对人工智能可能带来的产业消失、从业人口减少和为释放出来的劳动力寻找出路,该如何缩短转型周期,是摆在政府面前的一个现实命题。当然,也有还在观望之中的[29](P25)。
20世纪80年代之后,各种科技社会问题的不断爆发,加上越来越多的社会运动的压力,科技立法才加速纳入科技社会问题的进程。人们开始意识到,它的发展影响不应该仅仅是技术经济的,更应该是社会的。技术经济主义,也促成了国家之间的恶性竞争和极差,导致了欧洲国家之间的多次争霸,导致了技术先进国家对技术落后国家的技术支配和殖民,恶化国际社会关系。最早大概从19世纪开始,通过劳工运动,与当时科技应用相关的工业风险和劳动安全开始得到关注。
随着人类对技术经济意义追求不断升级,甚至引发了对于技术的膜拜,促成一种技术统治乃至技术垄断的技术意识形态后果[3](P43-62)。美国学者尼尔·波斯曼在《技术垄断》一书中提出,人类技术文明以来可以划分为三个时代,即工具时代、技术统治时代和技术垄断时代。与此同时,英国的亚当·斯密等在理性主义的基础上,提出了初始的自由市场理论,很快推动了市场经济实践。人工智能立法新范式的两重性布局,应以全新的价值观和更加合理的原则体系作为基础。
二是消极的人工智能科技社会规范,重点是如何防范和应对前述人工智能可能带来的社会问题。这一部分其实就是人工智能科技及社会风险立法范畴。
按照贝克的说法,就是要将过去稀缺社会的财富分配逻辑,向发达现代性的风险分配逻辑转变,或者说从财富生产支配风险生产的逻辑,转变为风险控制支配财富生产的逻辑[7](P3-48)。而人类法律智慧在这个时刻应该感受自身元神的召唤。
但是这些会与数据管理、数据权属、个人信息保护等既有法律秩序产生冲突,因此需要进行巧妙的协同设计,实现双赢,以便最终使得协同成为可能并且圆满。遗憾的是,目前各国和有关国际组织虽然在倡导一些人工智能伦理标准,包括所谓机器人安全原则,但还没有形成总括性的行之有效的全球标准。但在另一方面,人工智能人才短缺又成为制约人工智能产业发展的短板。神经科技,也有类似之忧[21](P199)。引入风险监测体系,进行相应的监测、预警或应急管理。在大力发展人工智能的同时,必须高度重视可能带来的安全风险挑战,加强前瞻预防与约束引导,最大限度降低风险,确保人工智能安全、可靠、可控发展[22]。
即,生产力在现代化进程中的指数式增长,使风险和潜在自我威胁的释放达到了前所未有的程度在工业社会中,财富生产的‘逻辑支配风险生产的‘逻辑从现代化进程自反性角度来看,生产力丧失了其清白无辜的面目。这种立法模式与人类关于科技的长期以来占主流地位的思维是一致的,即技术经济主义。
以生物科技为例,生物技术经过过去20年的发展,在数字技术和新材料的支持下,基因组、基因工程、诊断学、制药开发等方面都取得了质的飞跃,出现了能够改变生物系统的技术或生物设计技术,在DNA测序、DNA合成等DNA操纵下,转基因植物技术、干细胞技术、克隆技术、胚胎技术、基因治理技术、基因编程技术等可谓层出不穷,这些对于生物工程、精密医学、农业、环境、人体健康等显然具有极大的应用价值,但是它们同时带来了对于人本的威胁,因为极有可能改变人之为人的原样,所以也引发了极为深刻的人本主义观念下的伦理和安全危机[21](P187)。前者,体现为人工智能立法存在一般规范与具体规范的合理分置问题。
所以,场景细分研究很重要。例如,发达国家经历二三百年工业化的经济主义追求之后,经济增长进入了一个新的阶段,而发展中国家却仍然有不少还挣扎在贫困线上[7](P5)。
施瓦布研究第四次工业革命的实践时,呼吁要确保对第四次工业革命由人类主导、以人文本。马克·格兰诺维特在《社会与经济:信任、权力和制度》一书中提到,个人行为虽然存在自利和受规则与价值体系影响之间的微妙关系,但信任和权力也会潜移默化地塑造个人的心智结构,所以信任也是个人行为非常重要的社会因素[28](P91-140)。这恐怕也是国际社会要就科技事项进行平衡规范,难以取得合作共识的原因之一。它已经塑造了一个技术无孔不入的世界,这个世界遵从技术自身的规律,并已抛弃了所有的传统[18](P13)。
到80年代,更加强调科技资源供应和市场需求的结合,导致在微电子、生物技术和新材料等新领域又形成新一轮技术—经济高峰。从而,不仅会使得财富和福祉分配不公平,甚至导致赢者通吃的吸利效应,使得后用者或者各种原因被排除在人工智能技术之外的人,特别是利益相关者,成为新技术的弱势群体,进而成为社会弱势群体[23](P7-8)。
美国科技社会思想家兰登·温纳早前指出,当代新技术领域的发展,其导致的现代社会日益增长的复杂性和快速变化,超出了个人和社会形态的适应能力,与社会技术系统日益增长的复杂性合在一起,这些变化使得人们越来越难已开展当代社会生活中某些最为基本的活动:规划、设计,以及功能上的协调合作[1](P2)。人工智能科技最新和未来一个时期发展的意义,首先是其被认识到正在取得主导科技的地位,在技术和经济维度上形成了巨大的迭代力量,具有极端颠覆性的经济应用前景,由此不断引发投资风暴[4]。
一方面,仍然致力促进人工智能科技的经济意义。现在应用的领域突飞猛进,从智能助手向环境智能急速转进[20](P9)。
进而,自主化技术和技术垄断成为时代标签,而我们在其中正在失去作为人的自主性,被裹挟、被无奈。卡尔·马克思在《资本论》中,深刻揭示了这种资本倚重工业技术的经济主义单边结构,不断导致社会分化乃至社会关系异化,从而导致资本家或企业主与工人的对立关系。这种竞争利益虽然表面上看具有一定的社会性,被誉为社会经济利益,但是本质上仍然是市场经济利益,因为旨在保护市场竞争。通过引入不断升级的智能化,可以使得世界互联、万物互联、人机互动关系更加娴熟。
它通过与资本的结盟,在工业革命初期导致的社会灾害问题就已经凸显,比如说工业事故、劳动安全以及严重的社会不公平问题。此外,我国《新一代人工智能发展规划》强调的社会价值,还包括人工智能对于社会建设的功能在内。
在重大决策、执法(警务机器人)或者致命效应(自动化致命武器)的人工智能系统设计中,安全技术同步设计、价值和社会功能预先嵌入设计、运行与风险评估会同设计,都是十分必要的。另外,仅从人工智能的社会价值角度,笔者认为,广义上至少包括伦理、安全、公平、包容四个方面,它们之间存在交叉重叠。
注:推送已省略脚注,可点击阅读原文查看。人工智能一般法,通常包括人工智能一般市场规范、一般风险规范以及一般政策规范的内容。